刘艳红:人工智能的可解释性与AI的法律责任问题研究
作者:刘艳红,中国政法大学刑事司法学院教授、博士生导师。
来源:《法制与社会发展》2022年第1期(第78-91页)。
目次
二、可解释性:人工智能的行为即算法决策是否可理解?
三、法律责任否定论:基于人工智能行为的不可解释性
四、结 语
摘 要
人工智能(AI)作为类人类智能,无论我们是否赋予其主体资格,在解决其法律责任问题时,都必须对其行为进行解释,为此,探讨人工智能的法律责任问题,应该基于人工智能行为的可解释性的全新路径来推进,而不是纠缠于当下学界关于人工智能主体地位与法律责任的各种主体论与责任理论。人工智能的可解释性,亦即解释人工智能如何在大数据的基础上进行算法决策。然而,在AI领域,虽然以深度学习为代表的人工智能技术已取得了令人瞩目的成就,但如何确保以非技术性的方式向最终用户和其他利益相关方解释算法决策以及任何驱动这些决策的数据,仍是一个无法得到解决的难题,人工智能“黑箱”释明难题决定了人工智能行为的不可解释性。法律责任的本质是答责,不具有可解释性的人工智能不能自我答责,因此其无法承担法律责任;法律责任的目的是预防,不具有可解释性的人工智能无法实现法律责任的预防目的。人工智能法学研究的下一个前沿问题,是人工智能的可解释性问题。
关键词:人工智能;可解释性;法律责任;自我答责;责任预防
2018年9月,美国国防高级研究计划局(DARPA) 启动了被称为“加速第三波”的人工智能探索(Artificial Intelligence Exploration,AIE)项目,探索人工智能类人水平的交流和推理能力,以实现人工智能对新环境的自适应,自此之后,人工智能的可解释性成为人工智能领域的一个研究热点。2019年4月8日,欧盟委员会发布了《人工智能道德准则》(Ethics Guidelines for Trustworthy AI)(以下简称《准则》),提出了“值得信赖”的人工智能应当满足的条件,即受人类监管、技术的稳健性和安全性、隐私和数据管理、透明度、多样性、非歧视性和公平性、社会和环境福祉以及问责制。其中,透明度是建立和维持公民对人工智能系统开发者和人工智能系统本身信任的关键。2021年1月6日,欧洲议会和理事会制定的《关于人工智能的统一规则(人工智能法)并修正某些联合立法行为》也同样对透明度予以了强调,规定高风险AI系统的设计和开发方式应足够透明,以使用户能够理解系统的输出并适当地使用它。从定义上看,人工智能的透明度分别指向透明性与可理解性两个维度。透明性是指人工智能模型本身是可以被人类理解的,而可理解性意味着人类对人工智能模型作出的决策能够达到一定的理解程度。为进一步实现对透明度的衡量,《准则》还引入了“可解释的人工智能”(Explainable Artificial Intelligence)概念,可解释的AI被称为XAI,可解释性由此成为衡量人工智能透明度的重要标准。2020年10月20日,欧洲议会通过了关于人工智能道德原则的立法倡议,明确要求,为了确保人工智能和机器人技术是安全且可以为人类所信赖的,“这些技术使用或产生的软件、算法和数据”应当具有“可解释性、可诠释性、透明度和可识别性等安全特征”。鉴于“人们只能对已经理解的事物作出法律上的安排”,人工智能的可解释性成为人工智能推广和应用以及解决其法律责任问题的前提条件,并成为人工智能研究领域的下一个前沿问题。因此,人工智能的可解释性问题成为人工智能与法律的连接点,本文即以人工智能的可解释性这一全新视角展开对人工智能法律责任问题的探讨。
讨论人工智能的可解释性问题,既是发展人工智能的哲学需要,也是对人工智能的实用性要求,更是解决人工智能法律责任问题的关键。为了避免遭受诸如“你们的哲学家没有付出哪怕最小的努力去理解非个体的存在和思想”的指责,人类必须主动放下身姿,关注人工智能的“存在与思想”,分析其行为是否具有可解释性。为了避免人工智能的行为充满不安全性与不确定性,人类必须主动思考,关注人工智能的可解释性与可诠释性,以合理实现对人工智能法律责任的制度安排。
法律主体要对自己的行为承担责任,这意味着其行为必须可被解释。承担责任的前提就是行为具有可解释性,“作为‘责任(accountablity)’最基本的因素,主体的行为必须可被解释”。因此,人工智能作为人类意欲承认的法律责任主体,其行为必须具有可解释性。
当下学界在探讨人工智能的法律问题时,主要围绕人工智能的权利与义务这对范畴进行,也即讨论人工智能是否具有法律地位,能否成为权利的享有者和义务的承担者。因此,对人工智能法律责任的讨论多落脚于人工智能能否独立承担责任及如何承担责任。一般来说,法律地位的问题解决了,法律责任的问题也就迎刃而解了。然而,在人工智能的法律地位与法律责任问题上,学界众说纷纭。关于人工智能的法律地位问题,既有否定论与肯定论的对峙,更有在肯定论中从法律人格扩展论到电子人格论再到人格拟制论最终到人工智能发展论以及有限人格论等各种理论的提出;关于人工智能的法律责任问题,则有法律责任独立论、法律责任代理论等不同观点,以及根据责任类型(如刑事责任或民事责任等)所作出的一些探讨。但遗憾的是,所有这些学说均未有效回答人工智能为何有或者没有法律地位,为何以及如何承担法律责任,以至于学界围绕这两个问题一直争论不休,甚至导致人工智能法学研究呈现出“泡沫化”倾向。究其原因,是学界对人工智能法律地位与责任承担问题的探讨视角存在问题。确立人工智能的法律地位是为了解决权利能力与义务承担问题,只要解决了权利与义务问题,也就解决了法律责任承担问题。“一般性法律与基本权利的交互性影响,系通过解释与实践调和的方式来平衡基本权利主体之间的利益,为基本权利的内在限制。”这意味着,在法哲学层面,权利理论的科学性指标有两个,一是可解释性,二是可实践性。只有具有可解释性的权利,才具有可实践性,可解释性是根本。行为只有具有可解释性,行为主体才能成为权利主体,才能承担法律责任,履行法律义务。“机器人有道德和法律上的义务,甚至权利吗?这些提问对人工智能的发展具有重大意义。因为人工智能的行为和决策的自主空间越大,谁对其决策和行为承担责任这个问题的提出就越紧迫。”而人工智能的行为和决策的空间越大,需要解释的空间就越大,这直接影响人工智能对法律责任的承担。因此,探讨人工智能的法律责任问题,应该基于人工智能行为的可解释性展开,而不是纠缠于各种不同的主体论与责任理论。换言之,探讨人工智能的法律责任问题,应采用权利理论的视角和可解释性的标准,按此全新路径来推进对人工智能法律问题的探讨。
人工智能作为类人类智能,无论我们是否赋予其主体资格,在解决其法律责任问题时,都必须解释其是如何行为的。“人类专家可以解释他们如何执行某些任务,机器人则无法解释这一事实,而解释是专业知识的一个重要方面。的确,专家经常被要求解释其决定,所以,如果一个机器人不能提供连贯的解释,它又怎么能发挥专家的作用呢?”如果人们愿意将人工智能理解为法律科技的核心技术,就意味着“对人工智能的理解是建立人工智能相关法律关系不可或缺的前提条件”。因此,只有人工智能的行为具有可解释性,人工智能才能与人类主体一样成为法律责任的承担主体,否则,不可解释的行为将会使人工智能成为炼金术或者魔幻,不可言说,不可理解,并最终导致法律责任无法得到精准确立与分配。
法律主体要对自己的行为承担责任,还意味着需要对人工智能的行为的可解释性予以法教义学的探讨,也即“以人类可理解的术语去解释或描述人类与人工智能之间的相互交流”。只有通过人工智能行为的可解释性,才能实现人工智能与人类的交互理解,进而将人工智能发展为可能的新型责任主体类型。
要解决人工智能的法律责任问题,就必须解决法律适用问题。按照卡尔·拉伦茨的观点,法律适用“是一种对向交流的过程”,因此,“必须考虑在可能适用的法条之下,由‘未加工的案件事实’形成作为陈述之终局的案件事实,同时也必须考虑在终局的案件事实之下,将应予适用的规范内容尽可能精确化”。对于人脸识别、医疗诊断、自动驾驶等领域的人工智能法律责任问题,仅通过结果难以导向对案件事实的全面而终局性的了解,必须经由对人工智能作出的识别、诊断、驾驶等行为的解释,了解行为过程的全貌,方能找到准确的适用规范,进而解决人工智能的法律责任问题。法学是探究法的客观意义的科学,无论是法教义学,还是法解释学,其内核都是要求对法律规范进行解释,解释者的目光在案件事实与法律规范之间往返逡巡,最终得出结论。法学的历史就是法解释的历史,自然法学派、概念法学派、自由法学派、利益法学派、社会法学派、历史法学派、分析法学派等各种学派之间的区别,无非是在解释理念与解释方法上的区别。探讨人工智能法律责任问题的前提在于,必须合理解决人工智能行为的可解释性,只有运用解释学的方法进行人工智能法律问题研究,才能使人工智能的行为所产生的事实具有法律上的意义。因为“规范对于行动具有重大意义”,人工智能的行为无论是适用现有法律规范,还是适用未来新制定的法律规范,我们都“必须用解释学或内在观点来理解它,尽管我们对于规范的规范性基础有着不同的意见,但使用能够为人类主体懂得的词语来理解和解释显得尤为必要”。只有对人工智能的行为进行解释并使其为人类所理解,才能准确适用法律规范,确立人工智能的法律主体地位及相应法律责任。基于法律解释思维,只有将人工智能的“识、判、动、作”亦即自主识别、自动判断、自主行动以及自主创作的过程予以清晰解释,才能证立或正当化某一结论。
法教义学的立场认为,“解决一个具体的法律问题,也就意味着将某一法律规范适用于具体的个案之中,但案件的解决必须建立在理由建构的基础之上”。这样的理由,对于人工智能而言,当然是指向AI是如何识别数据并进行判断进而作出某种决策的,这是决定人工智能能否对自己的行为承担法律责任的实质性理由。比如,以人工智能在商业领域的运用为例,人工智能完全可以为定价打开新世界的大门。在动态定价领域,人工智能可以适时根据消费者喜好、商品的市场价格、商品销量、购物车的停放数量、顾客评价,“甚至推特和脸书上的评论,通过特殊的算法计算出理想的价格,必要时还可以每分钟更新一次。这样,就可以实现全新的差异化定价”。然而,如果因为定价前后不一而引发顾客对价格欺诈的投诉和索赔,那么,就必须解释清楚,在人工智能的定价决策过程中是否存在算法歧视。为了避免人工智能不被接受,通过解释,可以建构人工智能和人类之间的对话机制,从而使人工智能与人类之间具有更强的社会关联性以及社会可接受性。人工智能的行为只有具有可解释性,才能使人们对AI的认识达成共识。法律解释本身就是通过使用特定语言并遵守一定规则进行言说的方式,促进共识的达成。“共同的语言游戏总是体现着相同的价值立场,对语言使用规则的恰当遵守还能透过语言本身达到减少价值立场之间冲突的作用”,减少人们在“人工智能是否具有法律主体资格以及如何承担法律责任”问题上的分歧。
人工智能问题属于科技领域的问题,人工智能的法律责任问题则属于法学领域的问题。“这对法学提出了严峻挑战:人们只能对已经理解的事物作出法律上的安排。因此,将来必定会出现以对法律科技的细致了解为前提的特殊部门法学。”在人工智能的法律责任问题上,如果人类能够理解人工智能的决策和行为,那么,对人工智能法律责任的制度安排与评判就会正当而合理。“这就意味着,对人工智能的理解是建立人工智能相关法律关系不可或缺的前提条件。”法律责任的承担意味着行为主体的行为能够被阐释和说明。
二、可解释性:人工智能的行为即算法决策是否可理解?
01
相关阅读
02
商品书目
微信号 : DigitalLaw_ECUPL
探寻数字法治逻辑
展望数字正义图景
数字法治战略合作伙伴:理财魔方
北京市竞天公诚律师事务所上海分所